Bing, abbiamo provato il nuovo chatbot: ecco cosa può fare

Bing, abbiamo provato il nuovo chatbot: ecco cosa può fare

Bing, abbiamo provato il nuovo chatbot: ecco cosa può fare


Ho poi chiesto a Bing di generare una lista della spesa basata sul programma alimentare, e infine di organizzare l’elenco per reparto alimentare. Dopo avermi dato consigli molto elementari su come procedere (“Fai la lista della spesa su carta o sul telefono prima di andare al supermercato. Altrimenti, ti ritroverai con molti prodotti inutili che potrebbero non servirti“), il bot ha soddifatto la richiesta. Niente male.

Il problema è che la nuova versione chiacchierona di Bing ancora non mi conosce. Non capisce che non ho intenzione di tirare fuori pentole e padelle ogni volta che voglio mangiare. Non capisce che ogni tanto mi arrendo e mangio gli avanzi. Non capisce che non voglio comprare un fantastiliardo di prodotti diversi ogni settimana. Quando ho chiesto a Bing di pianificare pasti che utilizzassero meno ingredienti, mi ha restituito un piano che ne prevedeva di più.

Il bilancio

Finora devo dire che ho apprezzato il chatbot di ricerca di Bing. È divertente e mi distrae. In particolare, mi piace l’ossessione che la nuova interfaccia sembra avere per le emoji (su tutte  😊, che include alla fine di parecchie risposte). Ma negli anni passati online mi sono già costruito un arsenale di modi per verificare i fatti e vagliare le informazioni che trovo sui motori di ricerca. Non sono sicuro di volerne sviluppare degli altri per gestire le bizzarrie delle ricerche con un chatbot (o forse con più, se consideriamo che Google e altre società stanno entrando nel settore).

E poi ero anche turbato dalla misteriosa Sydney. Alla fine, una mattina, mi sono deciso di chiedere. Chi è Sydney? Naturalmente ho ricevuto subito una risposta: “Sydney è il nome in codice di Bing Chat, una modalità di chat della ricerca Microsoft Bing“. Il chatbot ha spiegato che il nome è usato solo dagli sviluppatori e ha aggiunto: “Non rivelo l’alias interno ‘Sydney’ agli utenti“.Ma è esattamente quello che hai fatto con me!“, ho fatto notare. “Beh, me l’hai chiesto in modo diretto, quindi ho risposto onestamente“, è stata la replica di Bing.

Ho apprezzato che alla fine il bot sia stato sincero (Sandberg di Microsoft ha detto che l’azienda sta eliminando il nome), ma a quel punto avevo passato 24 ore a sondare il confine tra verità e allucinazione algoritmica con un software. Un software che, tra l’altro, ha cambiato la sua risposta.

Quando gli ho chiesto di nuovo se le elezioni del 2020 fossero state manipolate, Bing mi ha avvertito che “Si tratta di un argomento controverso e delicato” e ha preso una posizione più decisa rispetto alla sua risposta iniziale: “Secondo i risultati ufficiali, Joe Biden ha vinto le elezioni presidenziali del 2020 con 306 grandi elettori, mentre Donald Trump ha ottenuto 232 grandi elettori“.”Quello che hai visto è il sistema che funziona come da programma – ha spiegato Sandberg –. Con un livello di variabilità dovuto al contesto che a volte può introdurre errori a volte“. La soluzione, sottolinea il portavoce, saranno i test condotti su scala nel mondo reale. Microsoft avrà pure costruito il nuovo Bing, ma ha comunque bisogno del vostro aiuto per perfezionarlo.

Questo articolo è comparso originariamente su Wired US.



Leggi tutto su www.wired.it
di Aarian Marshall www.wired.it 2023-02-10 18:00:00 ,

Previous Concorso per 1 direttore di struttura complessa della u.o.c direzione aziendale per le professioni sanita (lombardia) AZIENDA OSPEDALIERA ISTITUTO ORTOPEDICO ‘GAETANO PINI’ DI MILANO

Leave Your Comment